16 research outputs found

    Reversible color video watermarking scheme based on hybrid of integer-to-integer wavelet transform and Arnold transform

    Get PDF
    Unauthorized redistribution and illegal copying of digital contents are serious issues which have affected numerous types of digital contents such as digital video. One of the methods, which have been suggested to support copyright protection, is to hide digital watermark within the digital video. This paper introduces a new video watermarking system which based on a combination of Arnold transform and integer wavelet transforms (IWT). IWT is employed to decompose the cover video frames whereby Arnold transform is used to scramble the watermark which is a grey scale image. Scrambling the watermark before the concealment makes the transmission more secure by disordering the information. The system performance was benchmarked against related video watermarking schemes, in which the evaluation processes consist of testing against several video operations and attacks. Consequently, the scheme has been demonstrated to be perfectly robust

    Hand detection and segmentation using smart path tracking fingers as features and expert system classifier

    Get PDF
    Nowadays, hand gesture recognition (HGR) is getting popular due to several applications such as remote based control using a hand, and security for access control. One of the major problems of HGR is the accuracy lacking hand detection and segmentation. In this paper, a new algorithm of hand detection will be presented, which works by tracking fingers smartly based on the planned path. The tracking operation is accomplished by assuming a point at the top middle of the image containing the object then this point slides few pixels down to be a reference point then branching into two slopes: left and right. On these slopes, fingers will be scanned to extract flip-numbers, which are considered as features to be classified accordingly by utilizing the expert system. Experiments were conducted using 100 images for 10-individual containing hand inside a cluttered background by using Dataset of Leap Motion and Microsoft Kinect hand acquisitions. The recorded accuracy is depended on the complexity of the Flip-Number setting, which is achieved 96%, 84% and 81% in case 6, 7 and 8 Flip_Numbers respectively, in which this result reflects a high level of finite accuracy in comparing with existing techniques

    Gender recognition on real world faces based on shape representation and neural network

    Get PDF
    Gender as a soft biometric attribute has been extensively investigated in the domain of computer vision because of its numerous potential application areas. However, studies have shown that gender recognition performance can be hindered by improper alignment of facial images. As a result, previous experiments have adopted face alignment as an important stage in the recognition process, before performing feature extraction. In this paper, the problem of recognizing human gender from unaligned real world faces using single image per individual is investigated. The use of feature descriptor to form shape representation of face images with any arbitrary orientation from the cropped version of Labeled Faces in the Wild (LFW) dataset is proposed. By combining the feature extraction technique with artificial neural network for classification, a recognition rate of 89.3% is attained

    Natural image noise removal using nonlocal means and hidden Markov models in transform domain

    Get PDF
    Nonlocal means (NLM) which utilizes the self-similarity is considered as one of the most popular denoising techniques. Although NLM can attain significant performance, it shows a few loopholes, such as its computational complexity when it comes to similarity measurements, and the small number of sufficient candidates that use to choose the target patches which have complicated textures. In this paper, the use of clustering based on moment invariants and the hidden Markov model (HMM) is proposed to achieve preclassification and thus capture the dependency between additive white Gaussian noise pixel and its neighbors on the wavelet transform. The HMM also allows hidden states to connect to one another to capture the dependencies among coefficients in the transform domain. In the practical part, the experimental results present that the proposed algorithm has the ability to show denoised images better than the results of state-of-the-art denoising methods both objectively in peak signal-to-noise ratio and structural similarity and subjectively using visual results, especially when the noise level is high

    Online signature verification using neural network and Pearson correlation features

    Get PDF
    In this paper, we proposed a method for feature extraction in online signature verification. We first used signature coordinate points and pen pressure of all signatures, which are available in the SIGMA database. Then, Pearson correlation coefficients were selected for feature extraction. The obtained features were used in back-propagation neural network for verification. The results indicate an accuracy of 82.42%

    Non-invertible online signature biometric template protection via shuffling and trigonometry transformation

    Get PDF
    This thesis reports on research work carried out on online handwritten signature biometrics template protection. Such a research effort is deemed necessary since like any other biometrics system, online signature biometric requires the use of template database which is vulnerable to attacks. The proposed template protection scheme is based on a hybrid of shuffling and trigonometry transformation functions which is addressed as ‘BioTrigono’. Prior to template protection scheme, signature samples are normalized in length to 256 sampled points. The effectiveness of the template protection scheme has been tested via an online signature verification system on SIGMA database which consists of a huge set of signature samples belonging to 200 Malaysian nationals. In the online signature verification system, prominent features are extracted via Principal Component Analysis, which are later fed to the Artificial Neural Network module for signature classification purposes. Here, the final output is accept or reject decision on the status of the tested signature sample as belonging to the claimed reference identity. In this thesis, the noninvertible property of BioTrigono template protection scheme has been proven mathematically through the employment of trigonometry transform function. In addition, renewability testing has been conducted by plotting various Receiver Operating Characteristic (ROC) curves under different settings which results that BioTrigono template protection scheme has renewability property. The impact of BioTrigono template protection scheme on the accuracy of the online signature verification system has also been conducted and benchmarked against an existing template protection mechanism (i.e. BioConvolving). The verification results indicate that the online signature verification system has consistently produced a better system accuracy when used together with BioTrigono template protection scheme as compared to its benchmarked counterpart

    Electronic student feedback management system based on web development

    No full text
    Nowadays, operation management performed by electronic systems in different life sectors is distributed and expanded swiftly due to several advantages that can be achieved, such as time reduction process, simplicity, and high accuracy of running operations. In the educational sector, performing student feedback electrolytically (using PC, Tablet, or Mobile) rather than the ordinary paper-based methods saves staff and students' time and makes managing the data easier. This paper proposes a new approach for the Electronic Student Feedback Management System based on web programming, which consists of input, process, store, and retrieves information using a database. The system is based on the Accreditation Board for Engineering and Technology (ABET) questionnaire model, which is implemented using web development tools (HTML, CSS, Javascript, MySQL, and PHP with Apache web-server). As a result, the proposed system was implemented successfully. The Electronic Engineering College officially adopted it at Ninevah University to perform the student feedback for the academic year 2018-2019, in which 4,282 student feedback applications (SFA) have been recorded. After that, statistical operations were done for extracting useful information effortlessly and accurately. As a result, more than 800 students made 4282 records have participated in the proposed system. This information can be quickly recorded and utilized to identify the weaknesses to address them in the next academic year

    Система класифікації іракських банкнот для незрячих на основі глибокого навчання

    No full text
    Modern systems have been focusing on improving the quality of life for people. Hence, new technologies and systems are currently utilized extensively in different sectors of our societies, such as education and medicine. One of the medical applications is using computer vision technology to help blind people in their daily endeavors and reduce their frequent dependence on their close people and also create a state of independence for visually impaired people in conducting daily financial operations. Motivated by this fact, the work concentrates on assisting the visually impaired to distinguish among Iraqi banknotes. In essence, we employ computer vision in conjunction with Deep Learning algorithms to build a multiclass classification model for classifying the banknotes. This system will produce specific vocal commands that are equivalent to the categorized banknote image, and then inform the visually impaired people of the denomination of each banknote. To classify the Iraqi banknotes, it is important to know that they have two sides: the Arabic side and the English side, which is considered one of the important issues for human-computer interaction (HCI) in constructing the classification model. In this paper, we use a database, which comprises 3,961 image samples of the seven Iraqi paper currency categories. Furthermore, a nineteen layers Convolutional Neural Network (CNN) is trained using this database in order to distinguish among the denominations of the banknotes. Finally, the developed system has exhibited an accuracy of 98.6 %, which proves the feasibility of the proposed model.Современные системы направлены на повышение качества жизни людей. Таким образом, новые технологии и системы широко используются в настоящее время в различных сферах нашего общества, таких как образование и медицина. Одним из медицинских применений является использование технологии компьютерного зрения, чтобы помочь незрячим людям в их повседневной деятельности и уменьшить их зависимость от близких людей, а также обеспечить независимость для слабовидящих людей при проведении повседневных финансовых операций. Исходя из этого, данная работа нацелена на оказание помощи слабовидящим в различении иракских банкнот. По сути, мы используем компьютерное зрение в сочетании с алгоритмами глубокого обучения для построения многоклассовой модели классификации банкнот. Данная система вырабатывает определенные голосовые команды, эквивалентные изображению банкноты, а затем информирует слабовидящих людей о номинале каждой банкноты. Для классификации иракских банкнот важно знать, что они имеют две стороны: на арабском и английском языках, что считается одним из важных вопросов при взаимодействии человека и компьютера (HCI) при построении модели классификации. В работе мы используем базу данных, которая содержит 3961 образец изображений семи категорий иракской бумажной валюты. Кроме того, с использованием этой базы данных обучается девятнадцатислойная сверточная нейронная сеть (CNN) для различения номиналов банкнот. Наконец, точность разработанной системы составила 98,6 %, что доказывает целесообразность предложенной модели.Сучасні системи спрямовані на підвищення якості життя людей. Таким чином, нові технології та системи широко використовуються в даний час у різних сферах нашого суспільства, таких як освіта і медицина. Одним із медичних застосувань є використання технології комп'ютерного зору, щоб допомогти незрячим людям у їхній повсякденній діяльності та зменшити їхню залежність від близьких людей, а також забезпечити незалежність для слабозорих людей при проведенні повсякденних фінансових операцій. Виходячи з цього, дана робота націлена на надання допомоги слабозорим у розрізненні іракських банкнот. По суті, ми використовуємо комп'ютерний зір у поєднанні із алгоритмами глибокого навчання для побудови багатокласової моделі класифікації банкнот. Дана система виробляє певні голосові команди, еквівалентні зображенню банкноти, а потім інформує людей з вадами зору про номінал кожної банкноти. Для класифікації іракських банкнот важливо знати, що вони мають дві сторони: арабською та англійською мовами, що вважається одним із важливих питань при взаємодії людини та комп'ютера (HCI) під час побудови моделі класифікації. У роботі ми використовуємо базу даних, яка містить 3961 зразок зображень семи категорій іракської паперової валюти. Крім того, з використанням цієї бази даних навчається дев'ятнадцятишарова згорткова нейронна мережа (CNN) для розрізнення номіналів банкнот. Врешті, точність розробленої системи склала 98,6 %, що доводить доцільність запропонованої моделі

    Controlling Embedded Systems Remotely via Internet-of-Things Based on Emotional Recognition

    No full text
    Nowadays, much research attention is focused on human–computer interaction (HCI), specifically in terms of biosignal, which has been recently used for the remote controlling to offer benefits especially for disabled people or protecting against contagions, such as coronavirus. In this paper, a biosignal type, namely, facial emotional signal, is proposed to control electronic devices remotely via emotional vision recognition. The objective is converting only two facial emotions: a smiling or nonsmiling vision signal captured by the camera into a remote control signal. The methodology is achieved by combining machine learning (for smiling recognition) and embedded systems (for remote control IoT) fields. In terms of the smiling recognition, GENKl-4K database is exploited to train a model, which is built in the following sequenced steps: real-time video, snapshot image, preprocessing, face detection, feature extraction using HOG, and then finally SVM for the classification. The achieved recognition rate is up to 89% for the training and testing with 10-fold validation of SVM. In terms of IoT, the Arduino and MCU (Tx and Rx) nodes are exploited for transferring the resulting biosignal remotely as a server and client via the HTTP protocol. Promising experimental results are achieved by conducting experiments on 40 individuals who participated in controlling their emotional biosignals on several devices such as closing and opening a door and also turning the alarm on or off through Wi-Fi. The system implementing this research is developed in Matlab. It connects a webcam to Arduino and a MCU node as an embedded system

    Обмеження зараження COVID-19 за допомогою автоматичного віддаленого моніторингу та виявлення захисної маски з використанням глибокого навчання та інтернету речей

    Get PDF
    During the current outbreak of the COVID-19 pandemic, controlling and decreasing the possibilities of infections are massively required. One of the most important solutions is to use Artificial Intelligence (AI), which combines both fields of deep learning (DL) and the Internet of Things (IoT). The former one is responsible for detecting any face, which is not wearing a mask. Whereas, the latter is exploited to manage the control for the entire building or a public area such as bus, train station, or airport by connecting a Closed-Circuit Television (CCTV) camera to the room of management. The work is implemented using a Core-i5 CPU workstation attached with a Webcam. Then, MATLAB software is programmed to instruct both Arduino and NodeMCU (Micro-Controller Unit) for remote control as IoT. In terms of deep learning, a 15-layer convolutional neural network is exploited to train 1,376 image samples to generate a reference model to use for comparison. Before deep learning, preprocessing operations for both image enhancement and scaling are applied to each image sample. For the training and testing of the proposed system, the Simulated Masked Face Recognition Dataset ( SMFRD) has been exploited. This dataset is published online. Then, the proposed deep learning system has an average accuracy of up to 98.98 %, where 80 % of the dataset was used for training and 20 % of the samples are dedicated to testing the proposed intelligent system. The IoT system is implemented using Arduino and NodeMCU_TX (for transmitter) and RX (for receiver) for the signal transferring through long distances. Several experiments have been conducted and showed that the results are reasonable and thus the model can be commercially appliedВо время нынешней вспышки пандемии COVID-19 крайне необходимо контролировать и снижать возможности заражения. Одним из наиболее важных решений является использование искусственного интеллекта (ИИ), который объединяет в себе как области глубокого обучения (DL), так и интернет вещей (IoT). Первое отвечает за обнаружение лица, на котором нет маски. В то время как последний используется для управления всем зданием или общественным местом, таким как автобус, вокзал или аэропорт, путем подключения камеры видеонаблюдения замкнутого контура (CCTV) к помещению управления. Исследование выполнено с использованием рабочей станции с процессором Core-i5, подключенной к веб-камере. Затем программируется программное обеспечение MATLAB для настройки Arduino и NodeMCU (блок микроконтроллера) для удаленного управления в качестве интернета вещей. В рамках глубокого обучения, используется 15-слойная сверточная нейронная сеть для обучения 1376 образцов изображений для создания эталонной модели с целью использования в сравнении. Перед глубоким обучением к каждому образцу изображения применяются операции предварительной обработки как для улучшения изображения, так и для масштабирования. Для обучения и испытания предлагаемой системы использовался набор данных распознавания лиц в масках (SMFRD). Этот набор данных опубликован в Интернете. Предлагаемая система глубокого обучения имеет среднюю точность до 98,98 %, где 80 % набора данных использовалось для обучения, и 20 % образцов предназначены для испытания предлагаемой интеллектуальной системы. Система интернета вещей реализована с использованием Arduino и NodeMCU_TX (для передатчика) и RX (для приемника) для передачи сигнала на большие расстояния. Было проведено несколько экспериментов, которые показали целесообразность результатов и, следовательно, применимость модели в коммерческих целях.Під час нинішньої спалаху пандемії COVID-19 вкрай необхідно контролювати і знижувати можливості зараження. Одним із найбільш важливих рішень є використання штучного інтелекту (ШI), який поєднує в собі як області глибокого навчання (DL), так і інтернет речей (IoT). Перше відповідає за виявлення обличчя, на якому немає маски. У той час як останній використовується для управління всією будівлею або громадським місцем, таким як автобус, вокзал або аеропорт, шляхом підключення камери відеоспостереження замкнутого контуру (CCTV) до приміщення управління. Дослідження виконано з використанням робочої станції з процесором Core-i5, підключеної до веб-камери. Потім програмується програмне забезпечення MATLAB для налаштування Arduino і NodeMCU (блок мікроконтролера) для віддаленого управління в якості інтернету речей. В рамках глибокого навчання, використовується 15-шарова згорткова нейронна мережа для навчання 1376 зразків зображень для створення еталонної моделі з метою використання в порівнянні. Перед глибоким навчанням до кожного зразка зображення застосовуються операції попередньої обробки як для поліпшення зображення, так і для масштабування. Для навчання і випробування запропонованої системи використовувався набір даних розпізнавання облич в масках (SMFRD). Цей набір даних опублікований в Інтернеті. Запропонована система глибокого навчання має середню точність до 98,98 %, де 80% набору даних використовувалося для навчання, і 20% зразків призначені для випробування запропонованої інтелектуальної системи. Система інтернету речей реалізована з використанням Arduino і NodeMCU_TX (для передавача) і RX (для приймача) для передачі сигналу на великі відстані. Було проведено кілька експериментів, які показали доцільність результатів і, отже, застосовність моделі в комерційних цілях
    corecore